Hugging Face
AI平台
Hugging Face是由Clément Delangue、Julien Chaumond和Thomas Wolf于2016年创立的美国人工智能平台,定位为开源社区与AI模型托管平台。截至2025年估值达45亿美元并获得谷歌亚马逊英伟达等投资。该平台托管超过42.3万个开源模型和8.4万个数据集,覆盖自然语言处理、计算机视觉及多模态领域,提供Transformers库、Spaces应用部署功能及企业级文本生成推理(TGI)、文本嵌入推理(TEI)服务。
核心功能
模型托管平台
2026年1月,字节跳动南洋理工大学联合推出的StoryMem视频生成系统在Hugging Face上开源了权重,该系统通过引入混合记忆库机制,旨在解决长视频生成中的角色走样与场景闪烁问题。例如,2025年12月,蚂蚁数科在平台上开源了Agentar-Scale-SQL代码,迅速获得了开发者的关注。艾伦人工智能研究所发布的Molmo2开源视频语言模型也可在Hugging Face平台上使用。腾讯于2025年12月发布的混元世界模型1.5(HY WorldPlay)也在Hugging Face上开源,提供实时互动虚拟世界的生成能力。小米在Hugging Face上开源了MiMo-V2-Flash模型,采用MIT开源协议,基础版权重已发布。上海人工智能实验室推出的OpenDataArena数据评测平台也将其工具、代码和数据托管在Hugging Face上。阿里巴巴Qwen团队发布的图像编辑模型Qwen-Image-Edit-2511也在Hugging Face上开源,提供网页端Demo,模型特点包括人物一致性大幅提升、全能编辑能力增强和开源免费体验。BrowserUse在Hugging Face上开源了BU-30B-A3B-Preview模型,专为浏览器自动化场景优化,基于阿里云通义千问Qwen3-VL-30B-A3B-Instruct深度微调,采用混合专家(MoE)架构,总参数30B,激活参数3B,支持多模态输入和32K tokens上下文,具备DOM理解与视觉推理能力,性能上平均每步操作仅需1.2秒,每1美元可完成约200个浏览器任务。MiniMax在Hugging Face上开源了其M2.1编程模型,该模型获得了vLLM的“Day-0”支持,并通过KTransformers技术优化了在高端设备上的FP8本地推理效率。
平台生态系统趋势
Hugging Face平台2020年6月至2025年8月期间产生22亿次下载数据,涉及85万个模型,采用滚动窗口过滤和RANSAC回归方法确保数据可靠性。全球模型下载份额呈现中美双极格局,2025年中国以17.1%的下载量超越美国15.8%,以DeepSeekQwen为代表的中国模型快速崛起,个人开发者与社区组织贡献近40%下载量,这一趋势与AI代理技术领域的发展形成交互,2025年Hugging Face作为创始成员参与由Linux基金会管理的AI代理基金会(AAIF),推动建立开源技术标准。
技术发展呈现多模态与模型规模化趋势,多模态生成模型使用量增长3.4倍,模型平均参数规模从2020年的2.17亿扩增至2025年的208亿,量化技术、混合专家架构和参数高效微调应用分别增长5倍、7.2倍和1.4倍。中介服务商通过量化与格式转换占据2025年22%下载量,以lmstudio-community、comfy和mlx-community为主要代表。
技术标准化进程加速,AAIF整合的MCP协议已被应用于中美主要科技企业,但需开发者额外处理安全漏洞防范等实施挑战。
模型透明度呈现下降趋势,公开训练数据信息的模型比例从2022年79.3%降至2025年39%,开放权重模型下载量首次超过开源模型,采用访问限制机制的模型比例增长1.7倍。开发主体国别差异显著,美国中国企业主导型模式分别占比67%与65%,德国呈现多元化特征,企业、大学与非营利组织分别占比34%、36%与30%。
平台简介
Hugging Face是一个AI社区平台,致力于通过开源和开放科学的方式来推进人工智能的发展和民主化。它为机器学习社区提供了协作模型、数据集和应用程序的环境。主要优势包括:1)协作平台,可无限托管和共享模型、数据集和应用程序。2)开源堆栈,加速ML开发流程。3)支持多模态(文本、图像、视频、音频、3D等)。4)建立ML作品集,在全球分享你的作品。5)付费计算和企业解决方案,提供优化的推理端点、GPU支持等。
最新修订时间:2026-01-05 14:01
目录
概述
核心功能
参考资料